Selamat datang di Pelajaran 7, di mana kita memperkenalkan Pembelajaran Transfer. Teknik ini melibatkan penggunaan kembali model pembelajaran mendalam yang telah dilatih pada dataset besar dan umum (seperti ImageNet) serta menyesuaikannya untuk menyelesaikan tugas baru dan spesifik (seperti tantangan FoodVision kami). Ini sangat penting untuk mencapai hasil terbaik secara efisien, terutama ketika dataset berlabel terbatas.
1. Kekuatan Bobot yang Sudah Dilatih Sebelumnya
Jaringan saraf dalam belajar fitur secara hierarkis. Lapisan bawah mempelajari konsep dasar (tepi, sudut, tekstur), sementara lapisan yang lebih dalam menggabungkannya menjadi konsep kompleks (mata, roda, objek tertentu). Inti dari wawasan ini adalah bahwa fitur dasar yang dipelajari di awal bersifat secara universal dapat diterapkandi sebagian besar bidang visual.
Komponen Pembelajaran Transfer
- Tugas Sumber: Pelatihan pada 14 juta gambar dan 1000 kategori (misalnya, ImageNet).
- Tugas Tujuan: Menyesuaikan bobot untuk mengklasifikasikan dataset yang jauh lebih kecil (misalnya, kelas FoodVision kami).
- Komponen yang Dimanfaatkan: Sebagian besar parameter jaringan—lapisan ekstraksi fitur—digunakan kembali secara langsung.
Jalankan kode untuk memeriksa tensor aktif
Ukuran fitur masukan harus sesuai dengan keluaran lapisan dasar yang dibekukan.
Ukuran: 512.
Ukuran keluaran 512 adalah masukan, dan jumlah kelas 7 adalah keluaran.
Kode:
new_layer = torch.nn.Linear(512, 7)Ukuran fitur keluaran harus sesuai dengan jumlah kelas tujuan.
Ukuran: 7.